Lower Bounds on the Generalization Error of Nonlinear Learning Models
نویسندگان
چکیده
We study in this paper lower bounds for the generalization error of models derived from multi-layer neural networks, regime where size layers is commensurate with number samples training data. derive explicit general biased estimators, cases two-layered networks. For linear activation function, bound asymptotically tight. In nonlinear case, we provide a comparison our an empirical stochastic gradient descent algorithm. addition, unbiased which show that latter have unacceptable performance truly The analysis uses elements theory large random matrices.
منابع مشابه
Generalization error bounds for stationary autoregressive models
We derive generalization error bounds for stationary univariate autoregressive (AR) models. We show that imposing stationarity is enough to control the Gaussian complexity without further regularization. This lets us use structural risk minimization for model selection. We demonstrate our methods by predicting interest rate movements.
متن کاملthe effects of error correction methods on pronunciation accuracy
هدف از انجام این تحقیق مشخص کردن موثرترین متد اصلاح خطا بر روی دقت آهنگ و تاکید تلفظ کلمه در زبان انگلیسی بود. این تحقیق با پیاده کردن چهار متد ارائه اصلاح خطا در چهار گروه، سه گروه آزمایشی و یک گروه تحت کنترل، انجام شد که گروه های فوق الذکر شامل دانشجویان سطح بالای متوسط کتاب اول passages بودند. گروه اول شامل 15، دوم 14، سوم 15 و آخرین 16 دانشجو بودند. دوره مربوطه به مدت 10 هفته ادامه یافت و د...
15 صفحه اولthe effect of explicit teaching of metacognitive vocabulary learning strategies on recall and retention of idioms
چکیده ندارد.
15 صفحه اولthe effect of explicit versus implicit error correction on writing of iranian intermediate efl learners
در این پایان نامه دو روش اصلاح اشتباهات نوشتاری زبان آموزان بزرگسال ایرانی در سطح متوسط مورد بررسی قرار می گیرد. در روش اول (explicit) اشتباهات بطور مستقیم و در روش دوم (implicit) اشتباهات بصورت غیر مستقیم اصلاح می شود. برای انجام این تحقیق از دو گروه 15 نفری استفاده شده است. به زبان آموزان در هر جلسه یک موضوع انشا داده شده است. این کار در 15 هفته (15 جلسه) تکرار شده است. مقایسه نتایج این آزمون...
Some New Bounds on the Generalization Error of Combined Classifiers
In this paper we develop the method of bounding the generalization error of a classifier in terms of its margin distribution which was introduced in the recent papers of Bartlett and Schapire, Freund, Bartlett and Lee. The theory of Gaussian and empirical processes allow us to prove the margin type inequalities for the most general functional classes, the complexity of the class being measured ...
متن کاملذخیره در منابع من
با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید
ژورنال
عنوان ژورنال: IEEE Transactions on Information Theory
سال: 2022
ISSN: ['0018-9448', '1557-9654']
DOI: https://doi.org/10.1109/tit.2022.3189760